Перевод: со всех языков на все языки

со всех языков на все языки

энтропия сообщения

  • 1 энтропия сообщения

    Универсальный русско-немецкий словарь > энтропия сообщения

  • 2 энтропия сообщения

    ентропі́я повідо́млення

    Русско-украинский политехнический словарь > энтропия сообщения

  • 3 энтропия сообщения

    ентропі́я повідо́млення

    Русско-украинский политехнический словарь > энтропия сообщения

  • 4 эпсилон-энтропия сообщения в единицу времени

    Универсальный русско-английский словарь > эпсилон-энтропия сообщения в единицу времени

  • 5 энтропия

    Русско-украинский политехнический словарь > энтропия

  • 6 энтропия

    Русско-украинский политехнический словарь > энтропия

  • 7 энтропия

    Большой русско-немецкий полетехнический словарь > энтропия

  • 8 энтропия

    eng.entropy
    rus.энтропия
    ukr.ентропія
    1) В теории информации - мера неопределенности состояния объекта или некоторой ситуации (случайной величины) с конечным числом исходов. Понятие энтропии введено Шенноном. Используется для определения количества информации в сообщении. Так, количество информации при равновероятности всех значений сообщения определяется по формуле H=k*log m, где H - энтропия, k - число знаков в сообщении, m - число знаков в алфавите источника, основание логарифма согласуется с единицами измерения энтропии.
    2) Порция информации, передаваемая между объектами КС.

    English-Russian dictionary of information security > энтропия

  • 9 скорость создания информации

    1. rate-distortion function

     

    скорость создания информации
    эпсилон-энтропия сообщения в единицу времени
    производительность источника

    Отнесенное к единице времени наименьшее количество информации о заданном ансамбле сообщений, содержащееся в другом ансамбле, представляющем заданный с указанной верностью.
    Примечание. В случае дискретного источника (или ансамбля сообщений), если требуется представление с абсолютной точностью, то скорость создания информации совпадает с энтропией в единицу времени.
    [Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]

    Тематики

    Синонимы

    EN

    Русско-английский словарь нормативно-технической терминологии > скорость создания информации

  • 10 rate-distortion function

    1. скорость создания информации

     

    скорость создания информации
    эпсилон-энтропия сообщения в единицу времени
    производительность источника

    Отнесенное к единице времени наименьшее количество информации о заданном ансамбле сообщений, содержащееся в другом ансамбле, представляющем заданный с указанной верностью.
    Примечание. В случае дискретного источника (или ансамбля сообщений), если требуется представление с абсолютной точностью, то скорость создания информации совпадает с энтропией в единицу времени.
    [Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]

    Тематики

    Синонимы

    EN

    Англо-русский словарь нормативно-технической терминологии > rate-distortion function

  • 11 Nachrichtenentropie

    сущ.
    тех. энтропия информации, энтропия сообщения

    Универсальный немецко-русский словарь > Nachrichtenentropie

  • 12 Nachrichtenentropie

    f
    энтропия информации, энтропия сообщения

    Deutsch-Russische Wörterbuch polytechnischen > Nachrichtenentropie

  • 13 rate-distortion function

    1) Общая лексика: скорость создания информации (отнесенное к единице времени наименьшее количество информации о заданном ансамбле сообщений, содержащееся в другом ансамбле, представляющем заданный с указанной верностью. В случае дискретного ис)

    Универсальный англо-русский словарь > rate-distortion function

  • 14 entropy

    eng.entropy
    rus.энтропия
    ukr.ентропія
    1) В теории информации - мера неопределенности состояния объекта или некоторой ситуации (случайной величины) с конечным числом исходов. Понятие энтропии введено Шенноном. Используется для определения количества информации в сообщении. Так, количество информации при равновероятности всех значений сообщения определяется по формуле H=k*log m, где H - энтропия, k - число знаков в сообщении, m - число знаков в алфавите источника, основание логарифма согласуется с единицами измерения энтропии.
    2) Порция информации, передаваемая между объектами КС.

    English-Russian dictionary of information security > entropy

  • 15 Nachrichtenentropie

    f энтропия ж. информации; энтропия ж. сообщения

    Neue große deutsch-russische Wörterbuch Polytechnic > Nachrichtenentropie

  • 16 information

    1. Термины, определенные в ИСО 10303-1
    2. СТРУКТУРА И ФОРМАТ ДАННЫХ
    3. информация (в кибернетике)
    4. информация
    5. Информационный бит

     

    информация
    Значимые данные.
    [ ГОСТ Р ИСО 9000-2008]

    информация
    Любой вид знаний о предметах, фактах, понятиях и т. д. проблемной области, которыми обмениваются пользователи информационной системы
    [ ГОСТ 34.320-96]

    информация
    Сведения (сообщения, данные) независимо от формы их представления.
    Примечание
    В соответствии с определением, приведенным в ГОСТ Р ИСО 9000, информацией являются значимые данные.
    [ ГОСТ Р 52653-2006]

    информация
    Сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации
    [ГОСТ 7.0-99]

    информация
    Сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления.
    [Руководящий документ "Основные положения развития Взаимоувязанной сети связи Российской Федерации на перспективу до 2005 года"]
    [ОСТ 45.127-99]

    информация
    сведения

    Одно из наиболее актуальных, фундаментальных и дискуссионных понятий в современной науке и практике. В связи с отсутствием общего определения, в различных предметных областях имеет различные интерпретации. Философия рассматривает две противостоящие друг другу концепции: первая квалифицирует информацию как свойство всех материальных объектов, т.е. как атрибут материи (атрибутивный подход), а вторая связывает ее лишь с функционированием самоорганизующихся систем (функциональный подход). Наиболее распространенным (но не общепринятым) является определение У.Р.Эшби, дополненное А.Д.Урсулом, которые рассматривают информацию как отраженное разнообразие в любых объектах (процессах) живой и не живой природы. На бытовом уровне информация чаще всего воспринимается интуитивно и связывается с получением сведений о чем или о ком-либо. В информатике – это совокупность фактов, явлений, событий, представляющих интерес, подлежащих регистрации и обработке (по Э.А.Якубайтису). Наиболее прагматичным определением оперирует вычислительная техника, в которой информация есть содержание, присваиваемое данным (по В.И.Першикову и В.М.Савинкову).
    [http://www.rol.ru/files/dict/internet/#I].
    Примеры сочетаний:
    information agent - информационный агент - программа, выполняющая поиск информации в Сети без указания пользователем места ее нахождения
    information appliances - информационная бытовая электроника
    information security - информационная безопасность
    information theory - теория информации
    information warfare (infowar) - информационная война
    management information - управленческая информация
    status information - информация о состоянии
    [ http://www.morepc.ru/dict/]

    Тематики

    EN

     

    информация (в кибернетике)
    Основное понятие кибернетики, точно так же экономическая И. — основное понятие экономической кибернетики. Определений этого термина много, они сложны и противоречивы. Причина этого, очевидно, в том, что И. как явлением занимается много разных наук, и кибернетика лишь самая молодая из них. И. — предмет изучения таких наук, как наука об управлении, математическая статистика, генетика, теория средств массовой И. (печать, радио, телевидение), информатика (1), занимающаяся проблемами научно-технической И., и т.д. Наконец, последнее время большой интерес к проблемам И. проявляют философы: они склонны рассматривать И. как одно из основных универсальных свойств материи, связанное с понятием отражения. При всех трактовках понятия И., она предполагает существование двух объектов: источника И. и потребителя (получателя) И. Передача И. от одного к другому происходит с помощью сигналов, которые, вообще говоря, могут не иметь никакой физической связи с ее смыслом: эта связь определяется соглашением. Например, удар в вечевой колокол означал, что надо собираться на площадь, но тем, кто не знал об этом порядке, он не сообщал никакой И. В ситуации с вечевым колоколом человек, участвующий в соглашении о смысле сигнала, знает, что в данный момент могут быть две альтернативы: вечевое собрание состоится или не состоится. Или, выражаясь языком теории И., неопределенное событие «вече» имеет два исхода. Принятый сигнал приводит к уменьшению неопределенности: человек теперь знает, что событие «вече» имеет только один исход — оно состоится. Однако, если было заранее известно, что вече состоится в таком-то часу, колокол ничего нового не сообщил. Отсюда вытекает, что, чем менее вероятно (т.е. более неожиданно) сообщение, тем больше И. оно содержит, и наоборот, чем больше вероятность исхода до совершения события, тем меньше И. содержит сигнал. Примерно такие рассуждения привели в 40-х годах XX в. к возникновению статистической, или «классической«, теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н.Винер, К.Шеннон и советские ученые А.Н.Колмогоров, В.А.Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т.п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники, как применения достижений кибернетики на практике. Что касается определения ценности, полезности И. для получателя, то здесь еще много нерешенного, неясного. Если исходить из потребностей экономического управления и, следовательно, экономической кибернетики, то И. можно определить как все те сведения, знания, сообщения, которые помогают решить ту или иную задачу управления (т.е. уменьшить неопределенность ее исходов). Тогда открываются и некоторые возможности для оценки И.: она тем полезнее, ценнее, чем скорее или с меньшими затратами приводит к решению задачи. Понятие И. близко понятию «данные«. Однако между ними есть различие: данные — это сигналы, из которых еще надо извлечь И. Обработка данных есть процесс приведения их к пригодному для этого виду. Процесс их передачи от источника к потребителю и восприятия в качестве И. может рассматриваться как прохождение трех фильтров: 1) физического, или статистического (чисто количественное ограничение по пропускной способности канала, независимо от содержания данных, т.е. с точки зрения синтактики); 2) семантического (отбор тех данных, которые могут быть поняты получателем, т.е. соответствуют тезаурусу его знаний); 3) прагматического (отбор среди понятых сведений тех, которые полезны для решения данной задачи). Это хорошо показано на схеме, взятой из книги Е.Г.Ясина об экономической информации (см. рис. И.8). Соответственно, выделяются три аспекта изучения проблем И. — синтаксический, семантический и прагматический. По содержанию И. подразделяется на общественно-политическую, социально-экономическую (в том числе экономическую И.), научно-техническую и т.д. Вообще же классификаций И. много, они строятся по различным основаниям. Как правило, из-за близости понятий точно так же строятся и классификации данных. Например, И. подразделяется на статическую (постоянную) и динамическую (переменную), и данные при этом — на постоянные и на переменные. Другое деление — первичная, производная, выходная И.: так же классифицируются данные. Третье деление — И. управляющая и осведомляющая. Четвертое — избыточная, полезная и ложная. Пятое — полная (сплошная) и выборочная. См. также Банк данных, Данные, Выборочная информация, Избыточная информация, Обработка данных, Прагматический аспект информации, Релевантная информация, Сбор данных, Семантический аспект информации Теория информации, Экономическая информация, Экономическая семиотика, Энтропия. Рис. И 8. Процесс передачи и восприятия информации Д — данные; I — физический фильтр (канал связи), 1 — статистическая информация, а — статистический шум; II — семантический фильтр (тезаурус), 2 — семантическая информация, б - семантический шум; III — прагматический фильтр, 3 — прагматическая информация; в — прагматический шум (ненужная, например,. избыточная информация). И — используемая информация.
    [ http://slovar-lopatnikov.ru/]

    Тематики

    EN

    3.34 информация (information): Любые данные, представленные в электронной форме, написанные на бумаге, высказанные на совещании или находящиеся на любом другом носителе, используемые финансовым учреждением для принятия решений, перемещения денежных средств, установления ставок, предоставления ссуд, обработки операций и т.п., включая компоненты программного обеспечения системы обработки.

    Источник: ГОСТ Р ИСО/ТО 13569-2007: Финансовые услуги. Рекомендации по информационной безопасности

    3.1 Термины, определенные в ИСО 10303-1

    В настоящем стандарте применены следующие термины:

    - приложение (application);

    - прикладной объект (application object);

    - прикладной протокол (application protocol);

    - прикладная эталонная модель; ПЭМ (application reference model; ARM);

    - данные (data);

    - информация (information);

    - интегрированный ресурс (integrated resource);

    - изделие (product);

    - данные об изделии (product data).

    Источник: ГОСТ Р ИСО/ТС 10303-1287-2008: Системы автоматизации производства и их интеграция. Представление данных об изделии и обмен этими данными. Часть 1287. Прикладные модули. Регистрация действий по прикладному протоколу ПП239

    3.34 информация (information): Любые данные, представленные в электронной форме, написанные на бумаге, высказанные на совещании или находящиеся на любом другом носителе, используемые финансовым учреждением для принятия решений, перемещения денежных средств, установления ставок, предоставления ссуд, обработки операций и т.п., включая компоненты программного обеспечения системы обработки.

    Источник: ГОСТ Р ИСО ТО 13569-2007: Финансовые услуги. Рекомендации по информационной безопасности

    3. СТРУКТУРА И ФОРМАТ ДАННЫХ

    57. Информационный бит

    Information

    bit

    Бит, вырабатываемый источником данных и предназначенный для передачи данных пользователя

    Источник: ГОСТ 24402-88: Телеобработка данных и вычислительные сети. Термины и определения оригинал документа

    2.9 информация (Information): Основана на понятии «данные». Добавляет значения величин для понимания предмета в заданном контексте. Является источником знаний.

    Источник: ГОСТ Р 53894-2010: Менеджмент знаний. Термины и определения оригинал документа

    Англо-русский словарь нормативно-технической терминологии > information

  • 17 информация (в кибернетике)

    1. information

     

    информация (в кибернетике)
    Основное понятие кибернетики, точно так же экономическая И. — основное понятие экономической кибернетики. Определений этого термина много, они сложны и противоречивы. Причина этого, очевидно, в том, что И. как явлением занимается много разных наук, и кибернетика лишь самая молодая из них. И. — предмет изучения таких наук, как наука об управлении, математическая статистика, генетика, теория средств массовой И. (печать, радио, телевидение), информатика (1), занимающаяся проблемами научно-технической И., и т.д. Наконец, последнее время большой интерес к проблемам И. проявляют философы: они склонны рассматривать И. как одно из основных универсальных свойств материи, связанное с понятием отражения. При всех трактовках понятия И., она предполагает существование двух объектов: источника И. и потребителя (получателя) И. Передача И. от одного к другому происходит с помощью сигналов, которые, вообще говоря, могут не иметь никакой физической связи с ее смыслом: эта связь определяется соглашением. Например, удар в вечевой колокол означал, что надо собираться на площадь, но тем, кто не знал об этом порядке, он не сообщал никакой И. В ситуации с вечевым колоколом человек, участвующий в соглашении о смысле сигнала, знает, что в данный момент могут быть две альтернативы: вечевое собрание состоится или не состоится. Или, выражаясь языком теории И., неопределенное событие «вече» имеет два исхода. Принятый сигнал приводит к уменьшению неопределенности: человек теперь знает, что событие «вече» имеет только один исход — оно состоится. Однако, если было заранее известно, что вече состоится в таком-то часу, колокол ничего нового не сообщил. Отсюда вытекает, что, чем менее вероятно (т.е. более неожиданно) сообщение, тем больше И. оно содержит, и наоборот, чем больше вероятность исхода до совершения события, тем меньше И. содержит сигнал. Примерно такие рассуждения привели в 40-х годах XX в. к возникновению статистической, или «классической«, теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н.Винер, К.Шеннон и советские ученые А.Н.Колмогоров, В.А.Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т.п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники, как применения достижений кибернетики на практике. Что касается определения ценности, полезности И. для получателя, то здесь еще много нерешенного, неясного. Если исходить из потребностей экономического управления и, следовательно, экономической кибернетики, то И. можно определить как все те сведения, знания, сообщения, которые помогают решить ту или иную задачу управления (т.е. уменьшить неопределенность ее исходов). Тогда открываются и некоторые возможности для оценки И.: она тем полезнее, ценнее, чем скорее или с меньшими затратами приводит к решению задачи. Понятие И. близко понятию «данные«. Однако между ними есть различие: данные — это сигналы, из которых еще надо извлечь И. Обработка данных есть процесс приведения их к пригодному для этого виду. Процесс их передачи от источника к потребителю и восприятия в качестве И. может рассматриваться как прохождение трех фильтров: 1) физического, или статистического (чисто количественное ограничение по пропускной способности канала, независимо от содержания данных, т.е. с точки зрения синтактики); 2) семантического (отбор тех данных, которые могут быть поняты получателем, т.е. соответствуют тезаурусу его знаний); 3) прагматического (отбор среди понятых сведений тех, которые полезны для решения данной задачи). Это хорошо показано на схеме, взятой из книги Е.Г.Ясина об экономической информации (см. рис. И.8). Соответственно, выделяются три аспекта изучения проблем И. — синтаксический, семантический и прагматический. По содержанию И. подразделяется на общественно-политическую, социально-экономическую (в том числе экономическую И.), научно-техническую и т.д. Вообще же классификаций И. много, они строятся по различным основаниям. Как правило, из-за близости понятий точно так же строятся и классификации данных. Например, И. подразделяется на статическую (постоянную) и динамическую (переменную), и данные при этом — на постоянные и на переменные. Другое деление — первичная, производная, выходная И.: так же классифицируются данные. Третье деление — И. управляющая и осведомляющая. Четвертое — избыточная, полезная и ложная. Пятое — полная (сплошная) и выборочная. См. также Банк данных, Данные, Выборочная информация, Избыточная информация, Обработка данных, Прагматический аспект информации, Релевантная информация, Сбор данных, Семантический аспект информации Теория информации, Экономическая информация, Экономическая семиотика, Энтропия. Рис. И 8. Процесс передачи и восприятия информации Д — данные; I — физический фильтр (канал связи), 1 — статистическая информация, а — статистический шум; II — семантический фильтр (тезаурус), 2 — семантическая информация, б - семантический шум; III — прагматический фильтр, 3 — прагматическая информация; в — прагматический шум (ненужная, например,. избыточная информация). И — используемая информация.
    [ http://slovar-lopatnikov.ru/]

    Тематики

    EN

    Русско-английский словарь нормативно-технической терминологии > информация (в кибернетике)

См. также в других словарях:

  • ЭНТРОПИЯ — (от греч. entropia поворот, превращение), понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в др. областях науки: в статистической физике как мера вероятности осуществления к.… …   Физическая энциклопедия

  • Энтропия языка — Энтропия языка  статистическая функция текста на определённом языке, либо самого языка, определяющая количество информации на единицу текста. С математической точки зрения энтропия языка определяется как где   сообщение,   его… …   Википедия

  • Энтропия (теория информации) — Энтропия (информационная)  мера хаотичности информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в… …   Википедия

  • Энтропия социальная — мера отклонения социальной системы или ее отдельного звена от принятого как эталонное (нормальное, ожидаемое) состояния, которое (отклонение) проявляется в снижении уровня организации, эффективности функционирования, темпов развития системы.… …   Экология человека

  • Энтропия — (от греч. entropía поворот, превращение)         понятие, впервые введенное в термодинамике (См. Термодинамика) для определения меры необратимого рассеяния энергии. Э. широко применяется и в других областях науки: в статистической физике (См.… …   Большая советская энциклопедия

  • Энтропия социальная — мера отклонения социальной системы либо ее отдельного звена от принятого как эталонное нормальное, ожидаемое) состояния, которое (отклонение) проявляется в снижении уровня организации, эффективности функционирования, темпов развития системы. Э. с …   Социологический справочник

  • Информационная энтропия — Информационная энтропия  мера неопределённости или непредсказуемости информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ… …   Википедия

  • Условная энтропия — Энтропия (информационная)  мера хаотичности информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в… …   Википедия

  • ИНФОРМАЦИИ ПЕРЕДАЧА — составная часть информации теории, относящаяся к изучению процесса переноса информации от источника сообщений к получателю сообщений (адресату). В теории И. п. изучаются оптимальные и близкие к оптимальным методы И. п. по каналам связи в… …   Математическая энциклопедия

  • ИНФОРМАЦИЯ — одно из центральных понятий современной философии и науки, широко вошедшее в научный обиход с 50 х гг. XX в. Данное понятие все чаще рассматривается в качестве третьего компонента бытия наряду с веществом и энергией. Этимологически информация… …   Современный философский словарь

  • скорость создания информации — эпсилон энтропия сообщения в единицу времени производительность источника Отнесенное к единице времени наименьшее количество информации о заданном ансамбле сообщений, содержащееся в другом ансамбле, представляющем заданный с указанной верностью.… …   Справочник технического переводчика

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»